FILTER MODE ACTIVE

#законы масштабирования

Найдено записей: 4

#законы масштабирования13.09.2025

VaultGemma 1B: приватная LLM на 1 миллиард параметров от Google с дифференциальной приватностью

Google AI представил VaultGemma 1B — открытую модель на 1 млрд параметров, обученную с дифференциальной приватностью, которая подтверждает практическую возможность масштабного приватного предобучения

#законы масштабирования13.07.2025

Meta AI представляет UMA: революционные универсальные модели для атомных симуляций

Meta AI и Университет Карнеги-Меллона представили UMA — новое семейство универсальных моделей для атомных симуляций, обеспечивающее высокую точность и скорость без дополнительной настройки.

#законы масштабирования11.06.2025

Прорыв Meta: новая методика измеряет, сколько языковые модели запоминают на уровне бит

Meta и партнёры разработали новую методику для точного измерения запоминания языковых моделей, показав, что GPT хранит около 3,6 бит на параметр, и предоставили важные инсайты о различии между запоминанием и обобщением.

#законы масштабирования03.06.2025

Лаборатория Shanghai AI Предлагает Энтропийные Законы Масштабирования для Решения Проблемы Коллапса Исследования в RL для LLM

Исследователи из Shanghai AI Laboratory предложили энтропийные законы масштабирования и новые методы для преодоления коллапса исследования в обучении с подкреплением больших языковых моделей, достигнув заметного улучшения результатов.